На днях компания VMware объявила о начале публичного бета-тестирования своего нового средства для анализа логов VMware vSphere - VMware vCenter Log Insight 1.0. Продукт поставляется в виде виртуального модуля (Virtual Appliance), который развертывается как обычный OVF-пакет, после чего становится доступен сбор и анализ данных syslog с серверов VMware ESXi 4.1, 5.0, 5.1, а также vCenter Server Appliance и других источников. Кроме того, Log Insight может быть интегрирован с vCenter Operations Manager.
Возможности VMware vCenter Log Insight 1.0:
High Performance Ingestion - Log Insight принимает данные от syslog или через API на скорости до 1000 Мбит/с на один виртуальный модуль
Near Real-Time Search - входящие данные доступны для поиска почти сразу и могут быть агрегированы с историческими данными в одном большом логе.
Aggregation - данные группируются методом похожим на GROUP-BY в реляционных БД.
Runtime Field Extraction - Log Insight может доставать данные из сырого лога средствами регулярных выражений.
Dashboards - администраторы могут создавать свои дэшборды из запросов к базе логов.
Scalability - инфраструктуру Log Insight можно наращивать за счет добавления дополнительных серверов.
Когда-то давно мы публиковали заметки о P2V-миграции физических серверов в виртуальные машины на платформе тогда еще VMware ESX Server (а также рассказывали о необходимых действиях после миграции). С тех пор многое изменилось, вышел VMware vCenter Converter Standalone 5.0, процесс миграции стал проще и стабильнее, а также накопилось пару моментов, о которых можно рассказать. Кроме того, появилась отличная статья на эту тему. Итак, есть 3 типа P2V-миграции...
Полгода назад мы уже писали о решении VMware vCloud Automation Center (vCAC), которое позволяет управлять облачной инфраструктурой предприятия (SaaS, PaaS, IaaS) средствами единого решения, построенного поверх VMware vCloud Director (для IaaS-инфраструктуры) и разработанного на базе решения DynamicOps (бывший продукт Virtual Resource Manager, VRM).
vCloud Automation Center упрощает доступ пользователям к облачным сервисам, предлагая портал самообслуживания, предназначенный для потребления различных aaS-услуг. Пользователь, заходя на портал, видит сервисы, к которым ему предоставлен доступ, выбирает нужный ему сервис и размещает запрос на его развертывание.
Улучшенная интеграция с vCloud Director. Владельцы ВМ могут развертывать объект vApp как единую сущность, но управлять каждой его ВМ по-отдельности.
Поддержка модели выделения ресурсов Pay-As-You-Go в vCloud Director. Администраторы могут создавать резервирование ресурсов по моделям Pay-As-You-Go, Reservation Pool или Allocation Pool.
Поддержка средства мониторинга и защиты корпоративной инфраструктуры vCloud Networking and Security (vCNS). vCAC теперь может обнаруживать такие сетевые ресурсы как сети VXLAN, балансировщики и security groups.Теперь их можно назначать виртуальным машинам при развертывании.
Поддержка гипервизора KVM (RHEV) и средства управления Red Hat Enterprise Virtualization Manager 3.1.
Improved Resource Reclamation
Улучшенный мехнизм настройки рабочих процессов (Improved Workflow Customization). Администратор может указать различные параметры аренды ВМ пользователем, включая возможность пролонгации аренды.
Метрики производительности для vSphere. Теперь эти метрики используются для определения неактивных ВМ, являющихся кандидатами на возврат в общий пул ресурсов (reclamation).
Поддержка виртуальных машин на платформе Amazon Web Service (EC2) для вывода ВМ из эксплуатации.
Site Recovery Manager Compatibility
Улучшенная интеграция со средством катастрофоустойчивости vCenter Site Recovery Manager. В версии 5.2 vCAC корректно обнаруживает отоношения между primary и recovery виртуальными машинами.
Internationalization
Поддержка интернационализции на уровне L0/L1. vCAC 5.2 поддерживает установку на локализованные версии ОС с non-ASCII символами (French, German, Japanese,
и Simplified Chinese). Пока без русского.
Installation
Поддержка модели лизензирования VMware V8 licensing. vCAC 5.2 поддерживает стандартные лицензионные ключи с VMware License Portal.
Compatibility Поддержка дополнительных гостевых ОС:
CentOS 5.9 (32- and 64-bit)
CentOS 6.3 (32- and 64-bit)
Windows 8
Windows Server 2012
Documentation
Информация о vCloud Automation Center Self-Service Portal теперь включена в документ
vCloud Automation Center Installation Guide.
Информация об интеграции vCAC с KVM (RHEV) теперь включена в vCloud Automation
Center KVM (RHEV) Integration Guide.
Информация о многомашинных сервисах и интеграции с vCloud Director включена в vCloud Automation Center What’s New Guide и vCloud Automation Center Multi-Machine Guide
Информация о vCAC Designer теперь есть в vCloud Automation Center Extensibility
Guide.
Все оставшиеся аспекты решения vCAC теперь есть в vCloud Automation Center Operating Guide.
Для проверки возможности обновления продукта на версию vCAC 5.2 может быть использован vCloud Automation Center Prerequisite Checker, идущий в комплекте поставки с продуктом:
Детальная информация о требованиях к обновлению на vCAC 5.2 приведена здесь.
Теперь, где можно более подробно ознакомиться с решением VMware vCloud Automation Center. Во-первых, есть вот такой ресурс - http://www.vcacteam.info/. Там собрано все, что может понадобиться администратору для понимания возможностей продукта.
Во-вторых, хорошая статья про интеграцию рабочих процессов VMware vCenter Orchestrator (vCO) и vCAC.
Некоторые из вас, возможно, в курсе, что существует такой проект Google Authenticator, который позволяет организовать двухфакторную аутентификацию через телефон (как по СМС, так и через приложение), которая позволяет не только вводить свой постоянный пароль, но и дополнительно временно генерируемый код, что существенно снижает риски несанкционированного доступа. Возможно, кто-то из вас использует это для своей почты на GMAIL:
Данный способ аутентификации очень надежен, так как злоумышленник без вашего телефона не получит доступа к сервису, поскольку он не получит временный пароль, а украв ваш телефон, он тоже не получит доступа, так как не знает постоянного пароля. Однако и этот способ не защищает от древнейшей утилиты взлома шифров и паролей - раскаленного утюга.
Компания VMware несколько доработала этот продукт, и на сайте проекта VMware Labs появился новый флинг - ESXi Google Authenticator, который позволяет организовать двухфакторную аутентификацию для доступа к консоли хост-серверов по SSH.
Для данного механизма обеспечения дополнительной безопасности поддерживаются хост-серверы ESXi 5.0 и 5.1, при этом допускается несколько администраторов одного сервера, использующих Google Authenticator (только ESXi 5.1).
Основные возможности ESXi Google Authenticator:
Поддержка двухфакторной аутентификации как для ESXi Shell, так и для доступа через SSH.
Поддержка нескольких логинов для ESXi 5.1 и одного (root) для ESXi 5.0.
Поддержка 30-секундных кодов TOTP (меняются каждые полминуты).
Поддержка кодов аварийного логина на случай, если телефон был украден (emergency scratch codes).
Защита от атак с повторением запросов.
Технически аутентификация в ESXi Google Authenticator организована средствами модуля PAM (Pluggable Authentication Module) и специального приложения, доступного для платформ Android, iOS и Blackberry.
Многие знают, что VMware vSphere версий 5.0 (начиная с Update 1) и 5.1 в полном объеме поддерживают Windows Server 2012 и Windows 8 в гостевых ОС виртуальных машин. Однако, еще далеко не во всех компаниях установлены последние версии гипервизора VMware ESXi - особенно в крупных организациях еще много где используют версию ESX/ESXi 4.x.
При попытке установить Windows Server 2012 и Windows 8 в виртуальной машине ESX/ESXi 4.x, выбрав в качестве гостевой ОС Microsoft Windows Server 2008 R2, администратор получит вот такую ошибку:
Your PC ran into a problem that it couldn't handle, and now it needs to restart
You can search for the error online: HAL_INITIALIZATION_FAILED
Решить эту проблему очень просто:
Создаем новую ВМ в vSphere Client.
В качестве типа гостевой ОС (Guest Operating System) выбираем Microsoft Windows Server 2008 R2 (64-bit).
Скачиваем вот этот файл bios и кладем его в папку с виртуальной машиной
Далее в конфигурационный файл .vmx в папке с ВМ добавляем следующие строчки:
Те из вас, кто испытывает потребность в балансировке соединений в виртуальной инфраструктуре VMware vSphere, а также функциях безопасности, могут обратить свое внимание на продукт от Loadbalancer.org, поставляемый в виде виртуального модуля (Virtual Appliance).
Основные возможности продукта:
Средства высокой доступности компонентов
Полнофункциональная балансировка на уровнях 4/7
Поддержка виртуальных и физических серверов
Веб-консоль управления
Функции HTTP Cookie Persistence
Функции RDP Cookie Persistence
Поддержка SSL Offloading
Поддержка 802.1q VLAN
Группировка интерфейсов 802.3ad Bonding
Широкие возможности анализа пакетов
Поддержка IPv6
Поддержка SIP с функциями Call-ID Persistence
Виртуальный модуль может работать в трех режимах:
Direct Routing (DR) - режим прямой маршрутизации
Network Address Translation (NAT) - режим трансляции сетевых адресов
Не так давно мы писали про средства управления питанием хост-серверов ESXi, которые имеются в VMware vSphere 5.1. Там мы рассматривали такую политику как Balanced - она разработана для того, чтобы максимально использовать переключения между состояниями P-states процессора в целях экономии энергии. Она обладает слегка большей инерционностью, чем обычное максимальное использование ресурсов процессора (High performance), но почти не влияет на производительность. Эта политика выставлена по умолчанию для серверов VMware ESXi 5.0 и более поздней версии.
Недавно на блоге VROOM! компании VMware появилось интересное исследование, посвященное механизмам управления питанием серверов ESXi. Как и обычно, в качестве инструмента для тестирования и создания нагрузки на хосты ESXi использовался продукт VMware VMmark, который и был разработан для тестирования производительности решений VMware на различных аппаратных платформах.
Сравнивались три подхода к управлению питанием:
Политика Performance - максимальное использование процессора за счет его поддержки в наивысшем P-state состоянии все время (то есть, по-сути политика энергосбережения отключена). При этом используются только 2 C-state состояния: С0 (running) и C1 (halted). Соответственно, данный режим выдает максимальную производительность, не имеет инерционности и потребляет больше всего энергии. Управляется эта политика BIOS'ом сервера.
Политика Balanced - сбалансированное энергопотребление за счет переключения между P-states. Эта политика управляется хостом ESXi.
Политика BIOS Balanced - функции энергосбережения, которые управляются на уровне BIOS сервера (например, Dell Active Power Controller).
Для тестирования производительности использовался стандартный подход VMmark, который предполагает создание возрастающих уровней нагрузки на хост-серверы (Tiles).
С точки зрения аппаратной платформы, использовалась следующая конфигурация:
4 сервера Dell PowerEdge R620
CPUs (на сервер): один Eight-Core Intel® Xeon® E5-2665 @ 2.4 GHz, Hyper-Threading enabled
Memory (на сервер): 96GB DDR3 ECC @ 1067 MHz
Host Bus Adapter: два QLogic QLE2562, Dual Port 8Gb Fibre Channel to PCI Express
Network Controller: один Intel Gigabit Quad Port I350 Adapter
Версия гипервизора: VMware ESXi 5.1.0
Дисковый массив: EMC VNX5700
62 флеш-диска (SSDs), RAID 0, сгруппированных в 3 x 8 SSD LUNs, 7 x 5 SSD LUNs и 1 x 3 SSD LUN
Средства управления: VMware vCenter Server 5.1.0
Версия VMmark: 2.5
Power Meters: три устройства Yokogawa WT210
Итак, что получилось. График очков VMmark (чем выше столбики - тем лучше). Результаты нормализованы к BIOS Balanced на уровне Tile 1:
Как мы видим, худшие результаты показывает политика BIOS Balanced.
Теперь посмотрим на результаты тестов по новой методике VMmark 2.5, позволяющей измерять производительность сервера на киловатт питания:
Как мы видим, политика Performance показывает самые низкие результаты (это логично, так как энергии потребляется много, а столько мощности не всегда требуется процессору), политика ESXi Balanced показывает результат на 3% лучше, а вот политика BIOS Balanced - аж на 20% лучше.
Кстати, интересны измерения потребления мощности при простаивающем процессоре:
Политика Performance потребляет 128 Вт
ESXi Balanced - 85 Вт
BIOS Balanced - тоже около 85 Вт
Казалось бы, почему тогда не использовать BIOS Balanced? А вот почему - при тестировании нагрузки приложений политика BIOS Balanced выдает огромные задержки (latency), негативно влияющие на производительность:
Таким образом, если снова вернуться к первому графику с обобщенными результатами, можно понять, что политика ESXi Balanced является наиболее оптимальной с точки зрения энергопотребления/производительности, поэтому-то она и установлена по умолчанию.
Таги: VMware, ESXi, Performance, vSphere, Hardware, Power
Не все администраторы платформы VMware vSphere в курсе, что на сервере VMware vCenter могут быть отключены различные фильтры хранилищ для хостов ESXi, что может оказаться полезным в нестандартных ситуациях.
Эти фильтры могут настраиваться через консоль vCenter в разделе расширенных настроек. Чтобы иметь возможность настраивать фильтры нужно выбрать пункт меню Administration > vCenter Server Settings. Далее в списке настроек нужно выбрать Advanced Settings.
На данный момент актуально четыре фильтра для хранилищ, включенных на хостах ESXi по умолчанию. Они помогают предотвращать ошибки, которые могут привести к повреждению и потере данных в исключительных ситуациях. Однако (зачастую, временно) эти фильтры можно отключить, но делать это нужно обдуманно, при этом не нужно забывать их снова включать.
В таблице ниже представлены назначение фильтров и конфигурация их выключения на сервере vCenter.
Название фильтра
Назначение фильтра
Конфигурация выключения
VMFS Filter
Этот фильтр не позволяет при выборе LUN для нового тома VMFS выбрать существующий и используемый VMFS-том. Действует это для любого хоста, управляемого сервером vCenter. Также этот фильтр работает при добавлении RDM-диска виртуальной машине - он не позволит выбрать существующий VMFS-том для этих целей.
config.vpxd.filter.vmfsFilter = false
RDM Filter
Этот фильтр отсеивает те LUN, которые используются как RDM-диски для виртуальных машин на каком-либо из хостов ESXi, управляемых vCenter. В среде vSphere две виртуальные машины не могут иметь непосредственный доступ к одному LUN через 2 разных mapping-файла. Однако через один такой файл - могут. Соответственно, если вам нужны две машины, использующих один RDM-том (например, для кластеров MSCS), то отключение этого фильтра может понадобиться.
config.vpxd.filter.rdmFilter = false
Same Host and Transports Filter
Этот фильтр не позволяет расширять существующий VMFS-том несовместимыми экстентами. Таким несовместимым томом может быть том, доступный только части хостов ESXi, а также LUN, имеющий не поддерживаемый на всех хостах тип хранилища, протокол и т.п.
Когда вы расширяете, растягиваете, удаляете хранилища или добавляете extent'ы, то автоматически вызывается rescan всех HBA-адаптеров, чтобы актуализировать конфигурацию хранилищ. Однако в большой инфраструктуре это может привести к так называемому "rescan storm", следствием чего может стать падение производительности. Отключение этого фильтра позволит выполнять эти действия без операций рескана. Это может оказаться очень удобным, когда вам в целях тестирования требуется производить описанные выше операции с виртуальными хранилищами.
config.vpxd.filter.hostRescanFilter = false
Ну и видео для тех, кому удобнее воспринимать из визуального ряда:
Иногда попытка включить фильтр после его временного отключения приводит к ошибке. Тогда нужно на сервере vCenter в файле vpxd.cfg найти и поправить соответствующую строчку в конфигурационном xml-файле:
При внесении описанных здесь изменений не обязательно перезапускать сервер vCenter - так как это всего лишь фильтры для мастера добавления хранилищ, они будут применены сразу же. Однако будьте осторожны с изменением фильтров, так как можно потерять данные.
Таги: VMware, vSphere, Storage, Troubleshooting, ESXi, VMachines, Обучение
Мы уже писали о компании VMTurbo, выпускающей продукты для мониторинга и управления виртуальной инфраструктурой на базе платформ различных вендоров. На днях VMTurbo сделала бесплатным продукт Virtual Health Monitor, предназначенный для мониторинга гетерогенной инфраструктуры виртуализации.
Надо сказать, что Virtual Health Monitor - это несколько доработанная версия издания Community Edition продукта VMTurbo Operations Manager, являющегося основным коммерческим решением компании, предназначенным для управления виртуальной средой.
Высокоуровневыми возможностями VMTurbo Virtual Health Monitor являются:
Возможность отслеживания производительности компонентов виртуального датацентра и определение уровня его работоспособности
Мониторинг параметров и построение отчетов о виртуальных машинах и хост-серверах в любом количестве (то есть настоящая бесплатность, без ограничений)
Поддержка нескольких гипервизоров одновременно
Еженедельный анализ аппаратных мощностей для определения степени эффективности их использования, а также прогнозирование необходимых дополнительных мощностей
Virtual Health Monitor поставляется уже в виде готового виртуального модуля (Virtual Appliance), который можно разместить на следующих платформах (они же, соответственно, и поддерживаются продуктом):
VMware vSphere
Microsoft Hyper-V
RedHat Enterprise Virtualisation (RHEV)
Citrix XenServer
Virtual Health Monitor был выпущен в преддверии выхода решения VMturbo Operations Manager 4.0, которое будет поддерживать гибридные облака и иметь специальные модули сопряжения с хранилищами различных производителей.
Скачать Virtual Health Monitor можно по этой ссылке.
Не так давно мы писали о том, что компания VMware выпустила обновленную версию руководства по обеспечению безопасности виртуальной инфраструктуры VMware vSphere 5.1 Security Hardening Guide. Также мы писали о VMware Mobile Knowledge Portal (VMKP) - приложении для мобильных устройств, которое позволяет изучать различный контент VMware в целях самообразования (документация, лучшие практики, видеобзоры, обучающие материалы и прочее).
Теперь же вот новость, объединяющая эти две - руководство vSphere 5.1 Hardening Guide стало доступно на VMware Mobile Knowledge Portal:
Кстати, с тех пор, как мы писали о портале VMKP, он сильно изменился к лучшему. Теперь он:
Доступен для iPad и Android
Имеет возможность ставить оценки содержимому
Имеет возможность посылать фидбэк в VMware относительно документов или их частей
Интегрирован с Facebook and Twitter для тех, кто хочет написать о том, что читает
Имеет механизм фича-реквестинга
Скачать приложение VMware Mobile Knowledge Portal с содержащимся в нем Security Hardening Guide можно по этим ссылкам: iPad и Android.
В самом конце прошлой недели компания VMware выпустила обновление своей серверной платформы виртуализации - VMware vSphere 5.1 Update 1. Напомним, что версия vSphere 5.1 вышла еще летом прошлого года, поэтому апдейт продукта назрел уже давно.
Из официального списка новых возможностей VMware vSphere 5.1 Update 1:
Надо сказать, что после vSphere 5.1 Update 1, следующие гостевые ОС НЕ будут поддерживаться со стороны VMware (этот релиз пока их поддерживает):
Windows NT
Все 16-битные версии Windows и DOS (Windows 98, Windows 95, Windows 3.1)
Debian 4.0 и 5.0
Red Hat Enterprise Linux 2.1
SUSE Linux Enterprise 8
SUSE Linux Enterprise 9 младше SP4
SUSE Linux Enterprise 10 младше SP3
SUSE Linux Enterprise 11 младше SP1
Ubuntu releases 8.04, 8.10, 9.04, 9.10 и 10.10
Все релизы Novell Netware
Все релизы IBM OS/2
Самые интересные исправления ошибок ожидают пользователей в подсистеме работы с хранилищами:
1. Наконец-то при выполнении операции Storage vMotion можно полноценно поменять имя виртуальной машины (то есть, целиком - вместе с виртуальными дисками).
Об этом мы уже писали вот тут. Наконец-то это заработало. На сервере vCenter идем в "Administration" -> "vCenter Server Settings" -> "Advanced Settings" и добавляем параметр:
provisioning.relocate.enableRename со значением true
Он применяется не только к VMFS3, но и VMFS5. Теперь вот что поменялось:
VMFS Heap может расти до 640 МБ вместо 256 МБ в прошлом релизе. Это позволяет подключать к хосту ESXi совокупный объем хранилищ до 60 ТБ.
Размер кучи выставляется дефолтно 640 МБ для новых установок и сохраняется на уровне уже имеющегося значения для апгрейдов с предыдущих версий.
Появился новый параметр, позволяющий гарантировать размер кучи - VMFS3.MinHeapSizeMB. Но его нельзя выставить больше, чем 255 МБ (однако она может продолжать расти до 640 МБ).
3. WWNN и WWPN для адаптеров FC HBA отображаются в vSphere Web Client корректно.
Раньше там отображалась бурда в виде ноликов на конце (см. тут). Теперь это поправлено.
Кроме всего этого, появилась хорошая статья KB 2037630, описывающая порядок обновления различных компонентов виртуальной инфраструктуры, построенной на продуктах VMware:
На страницах vSphere Blog обнаружилась интересная статья Вильяма Лама про патчи, накатываемые на гипервизор VMware ESXi. Приведем здесь основные выдержки, которые могут оказаться полезными при обслуживании виртуальной инфраструктуры VMware vSphere.
Итак, для начала приведем структуру разделов на диске установленной копии ESXi:
Основное отличие от традиционной ОС в VMware ESXi - это то, что все файлы, необходимые гипервизору, хранятся в разделе фиксированного объема (Primary Boot Bank - 250 МБ). Альтернативный Boot Bank такого же размера необходим на случай отката к предыдущей версии ESXi, вне зависимости от того был ли произведен Update (накатывание патчей) или Upgrade (накатывание новой версии ESXi).
Если мы произведем апгрейд ESXi 5.0 на версию 5.1, то структура банков поменяется следующим образом:
Хотя это на самом деле даже и не так - ESXi 5.0 останется в прежнем банке, а загрузчик (Boot Loader) будет указывать уже на альтернативный банк, где разместится ESXi 5.1.
Когда происходит накатывание патча на ESXi - меняется весь банк (основной или альтернативный), поэтому патчи так много весят (по сути обновляется весь основной дистрибутив):
Но в этом есть и преимущество - размер раздела для банка фиксирован и установка ESXi не разрастается со временем при установке новых апдейтов и апгрейдах. Кстати, обратите внимание, что под патчем написано его влияние на систему после установки.
Следующий момент: являются ли патчи кумулятивными, то есть содержат ли они все предыдущие обновления ESXi? Да, все патчи содержат в себе предыдущие, поэтому нет необходимости накатывать их последовательно. Скачать патчи VMware ESXi можно с Patch Portal.
Далее, мы видим, что у патча есть список Bulletin List с суффиксом BG (Bug Fix). Есть также и SG-бюллетени обновлений по безопасности (Security). Оба этих типа бюллетеней могут обновлять как основной банк (base), так и пакеты VMware Tools (драйверы и прочее). Кроме того, в бюллетенях содержатся обновления драйверов устройств для самого сервера ESXi.
SG-бюллетень содержит только обновления подсистемы безопасности, а BG-бюллетени могут содержать новый функционал, исправления ошибок и, опять-таки, обновления, касающиеся безопасности.
Наконец, каждый бюллетень состоит из VIB-пакетов, о структуре которых Вильям хорошо рассказал вот тут. Список установленных VIB-пакетов на хосте ESXi можно узнать командой:
Не так давно мы писали о том, что компания VMware выпустила черновик своего регулярно обновляемого руководства по обеспечению безопасности VMware vSphere 5.1 Security Hardening Guide. На днях, после двухмесячных публичных обсуждений, вышла окончательная версия документа vSphere 5.1 Security Hardening Guide с примечаниями и правками от комьюнити.
На различных вкладках документа Excel можно найти сведения о защите следующих компонентов инфраструктуры vSphere:
Виртуальные машины
Хосты ESXi
Виртуальные сети
Сервер управления vCenter Server и его БД.
Сервер vCenter Web Client
Сервер единой аутентификации vCenter SSO
Виртуальный модуль vCenter Virtual Appliance (VCSA), правда всего 3 пункта
Средство обновления vCenter Update Manager
В отличие от предыдущих версий документа, категорий стало несколько больше, а пункты в них стали как-то поконкретнее. Также отметим, что теперь появилась централизованная страничка, где будут собраны все Hardening Guides (почему-то там нет руководства по VMware View):
Не так давно мы уже писали о накладных расходах на виртуализацию по памяти для виртуальных машин на платформе VMware vSphere, а сегодня поговорим о виртуальных ПК, которые предъявляют дополнительные требования к объему памяти сверх выделенного на обеспечение работы различных графических режимов в гостевой ОС.
Для начала отметим, что на платформе VMware Horizon View 5.2 появились следующие изменения по сравнению с предыдущими версиями в плане графических режимов виртуальных ПК:
Horizon View 5.2 не позволяет установить 24-битную цветовую палитру, теперь используется только 32-битная.
Horizon View 5.2 позволяет устанавливать разрешения только 1680×1050, 1920×1200 и 2560×1600. Дефолтным является 1920×1200.
Теперь о накладных расходах по памяти для виртуальных машин.
3D Software Rendering отключен
В этом случае расходы дополнительной памяти сервера на виртуальный ПК зависят от используемого разрешения и количества мониторов для виртуальной машины (значения приведены в мегабайтах):
Затраты памяти
Число мониторов
Разрешение/Мониторы
1
2
3
4
1680×1050
6.73
21.54
32.30
43.07
1920×1200
8.79
28.13
42.19
56.25
2560×1600
31.25
62.5
93.75
125
Как вы знаете, в ESXi 5.0 появились возможности VMX Swap, которые позволяют создать swap-файл для сегментов данных процесса vmx, куда сбрасываются страницы памяти, но только в случае нехватки физической оперативной памяти на хосте. Он в разы уменьшает использование физической памяти на Overhead виртуальных машин в случае недостатка ресурсов.
Затраты хранилищ (в мегабайтах) на создание второго *.vswp файла для механизма VMX Swap рассчитываются следующим образом:
VMX SWAP
Число мониторов
Разрешение/Мониторы
1
2
3
4
1680×1050
107
163
207
252
1920×1200
111
190
248
306
2560×1600
203
203
461
589
Как мы видим, для некоторых виртуальных ПК может потребоваться более полугигабайта дополнительного дискового пространства.
3D Software Rendering включен
Для виртуальных ПК отдельно или в пределах пула можно установить объем видеопамяти (VRAM, не путать с vRAM) доступный гостевой системе, что влияет на накладные расходы на виртуализацию.
В этом случае дополнительно требуемая физическая память будет рассчитываться как 64 МБ + 16 дополнительных МБ на каждый монитор.
Что касается SWAP-файла, то требуемый для него объем существенно выше, чем в первом случае. Он зависит от выделенной видеопамяти:
VRAM
.vswp (МБ)
64 MB
1076
128MB
1468
256MB
1468
512MB
1916
То есть, в некоторых случаях дополнительные затраты на хранилище отдельной виртуальной машины могут достигать 2 ГБ. Чтобы это все учитывать при планировании инфраструктуры виртуальных ПК, можно воспользоваться калькулятором от Andre Leibovici, по материалам которого и написана эта заметка.
Время от времени мы пишем о графических материалах, позволяющих пользователям и партнерам VMware документировать виртуальную инфраструктуру VMware vSphere, VMware View, VMware SRM и прочее. Мы писали о наборе картинок для VMware vSphere 5 тут и тут, вот об этом наборе иконок, картинок и диаграмм, об этом, а также и об этом неофициальном наборе стенсилов Visio.
Последний как раз вчера и обновился в составе третьей части, которая теперь включает в себя картинки, графику и стенсилы для следующих компонентов:
Обратите внимание, что VMware настаивает на включении в документы, которые содержат эти картинки, какого-то бредового текста, который вы увидите в начале данных презентаций.
На сайте проекта VMware Labs появилась новая утилита - StatsFeeder, которая позволяет собрать статистику производительности виртуальной инфраструктуры с сервера VMware vCenter. StatsFeeder представляет собой набор Java-классов, которые нужны, чтобы складывать статистику в xml-файл с учетом масштабного роста данных. Далее эти данные можно визуализировать.
Кроме того, эти данные можно передавать сторонним системам мониторинга. По-сути, StatsFeeder - это фреймворк для разработчиков, планирующих интеграцию своих решений с метриками производительности vCenter.
В инфраструктуре VMware vSphere для диагностики сетевых неполадок иногда приходится в сервисной консоли серверов VMware ESXi тестировать различные соединения. В этой заметке мы вкратце опишем, как это делается.
Прежде всего, обычный пинг через стандартный Management-интерфейс:
# ping <IP хоста>
Пинг через порт VMkernel (в ESXi это тот же самый интерфейс, а в ESX - другой):
# vmkping 192.168.48.133
PING 192.168.48.133 (192.168.48.133): 56 data bytes
64 bytes from 192.168.48.133: icmp_seq=0 ttl=64 time=0.978 ms
64 bytes from 192.168.48.133: icmp_seq=1 ttl=64 time=1.009 ms
Для проверки соединения сервера VMware ESXi с хостом по какому-нибудь порту используется утилита netcat (nc). Telnet есть только на ESX. Формат использования netcat:
# nc -z <IP хоста> <порт хоста>
Например:
# nc -z 192.168.48.133 80
Connection to 192.168.48.133 80 port [tcp/http] succeeded!
С помощью netcat можно проверять только TCP-соединения, для UDP (флаг -uz) всегда будет статус succeeded (даже если порт заблокирован или закрыт), так как соединения по UDP не устанавливается. Для того, чтобы тестировать UDP-соединения можно воспользоваться утилитой tcpdump-uw.
Команда nc может быть использована для сканирования диапазона портов (будьте осторожны со сканированием, чтобы не навлечь гнев безопасников):
# nc -w 1 -z 192.168.48.133 20-81
Connection to 192.168.48.133 22 port [tcp/ssh] succeeded!
...
Connection to 192.168.48.133 80 port [tcp/http] succeeded!
Опция -w определяет таймаут между соединениями.
Для траблшутинга SSL-соединений может быть использована следующая команда:
Не так давно мы писали о публичной доступности программы VMware Hands-On Labs (HOL), представляющей собой онлайн-сервис, в котором пользователи могут выполнять лабораторные работы на базе различных продуктов VMware. Теперь же компания VMware объявила о запуске Hosted Beta Program, построенной на базе Hands-On Labs и предназначенной для тестирования потенциальными заказчиками VMware решений, построенных на базе продуктов vSphere, Horizon View, vCloud Director и других.
Для работы в среде Hosted Beta Program потребуется обычный браузер с поддержкой HTML5 (то есть последний Horizon View Client). Это позволит ознакомиться с новыми решениями и технологиями VMware, не тратя долгие часы на поиск оборудования и их развертывание и настройку.
Для запроса на участие Hosted Beta Program в нужно зарегистрироваться на этой странице.
Как многие из вас знают, в VMware vSphere 5.1 была введена возможность обновления пакета VMware Tools "без перезагрузки" гостевой ОС. Многие пользователи были удивлены - как же так, после обновления драйверов не нужно перезагружать сервер? На самом деле это небольшой маркетинговый обман - перезагружать ОС в некоторых случаях, все-таки, придется - чудес не бывает.
Просто исторически (до vSphere 5.1) обновление VMware Tools в любом из компонентов этого пакета требовало перезагрузки. При этом для Windows-систем ее можно было отложить используя опции установщика, например, такие (или так):
setup.exe /S /v"/qn REBOOT=R"
или
setup.exe /S /v"/qn REBOOTPROMPT=S"
Для ОС Unix/Linux драйверы и модули ядра отправлялись на стейджинг и активировались в системе после перезагрузки сервера.
Теперь же, в vSphere 5.1 обновление не всех компонентов VMware Tools требует перезагрузки, однако это применимо только к ОС Windows, для Linux все осталось по-прежнему. Перезагрузка требуется при обновлении следующих компонентов, входящих в состав пакета VMware Tools:
Драйвер видеоадаптера VMware SVGA II. Он используется для ОС младше Windows Vista, однако может использоваться в некоторых случаях и для других ОС. Если в системе установлен драйвер VMware SVGA 3D, то его обновление, скорее всего, не потребует перезагрузки. Однако в KB 2015163 указано, что перезагрузка произойти, все-таки, может.
Драйвер VMware Pointing DeviceDriver (PS/2). Этот драйвер используется по умолчанию для всех версий Windows, но обновляется крайне редко. В VMware vSphere 5.1 появился VMware USB Pointing Device driver, который не требует перезагрузки. Если это критично - можно использовать его.
Драйверы VMware VMSCSI Controller и VMware PVSCSI Controller Driver. Обновление этих драйверов, скорее всего, потребует перезагрузки, но только в случае, если один из этих драйверов используется для системного диска (с папкой C:\Windows), либо для устройства, файловая система которого используется на момент установки. В других случаях (например, у вас нет дисков на контроллере PVSCSI) - перезагрузка не требуется.
Опциональные компоненты. К ним относятся HGFS (функции shared folders) и ThinPrint, которые могут потребовать перезагрузки.
Какие особенности есть у процесса обновления VMware Tools без перезагрузки в VMware vSphere:
Работает это для Windows Vista и выше.
Работает только для ОС Windows.
Для виртуальной машины требуется Virtual Hardware 9 или более поздней версии.
Также стоит прочитать статью о том, следует ли обновлять VMware Tools при апгрейде хостов VMware vSphere.
Многие из вас, кто использует кластеризацию MSCS в виртуальных машинах на платформе VMware vSphere, возможно, замечали, что когда используется кластер Across Boxes (т.е. между ВМ на разных хостах), то перезагрузка хоста VMware ESXi занимает весьма продолжительное время (иногда - до получаса).
Дело здесь в том, что поскольку узлы кластера виртуальных машин используют диск RDM, который напрямую пробрасывается в виртуальную машину и для него используются SCSI reservations, то хост ESXi тратит много времени на обнаружение параметров устройства.
Избежать этого очень просто. Для этого:
В ESX / ESXi 4.0 нужно выставить минимальное значение на число повторов операций при обнаружении конфликтов SCSI-резерваций (в Advanced Settings хостов):
Scsi.UWConflictRetries = 80
Для ESXi 4.1 появилась дополнительная опция, которая уменьшает таймаут при загрузке в случае обнаружения конфликта. Это значение необходимо выставить в:
Scsi.CRTimeoutDuringBoot = 1
Начиная с ESXi 5.0, опция Scsi.CRTimeoutDuringBoot больше не действует. Теперь нужно использовать команды множества esxcli storage. Для этого:
Сначала надо найти NAA-идентификатор устройства (физического LUN, на котором используется RDM). Для этого нужно зайти в управление путями до устройства (Manage Paths) и посмотреть на строчку, начинающуюся с naa...... - это и есть naa id.
Далее в консоли сервера ESXi нужно выполнить следующую команду (она пометит LUN как изначально зарезервированный):
Не так давно мы писали про странный продукт VMware для управления не только собственной платформой, но и гипервизором от Microsoft - VMware vCenter Multi-Hypervisor Manager. Странным он был потому, что не поддерживал свежую версию Hyper-V 3.0 в Windows Server 2012, а значит, в сущности, был бесполезен.
На днях VMware начала исправлять эту ошибку, выпустив обновленную бета-версию решения VMware vCenter Multi-Hypervisor Manager 1.1, которое теперь поддерживает управление платформой Hyper-V 3.0.
VMware vCenter Multi-Hypervisor Manager поставляется в виде плагина к "толстому" клиенту vSphere Client (Web Client не поддерживается), который предоставляет доступ к дереву объектов Microsoft Hyper-V. Серверная часть Multi-Hypervisor Manager - это Windows-приложение, поэтому если вы используете, например, виртуальный модуль VMware vCenter Server Appliance (vCSA), то придется устанавливать MHM на отдельную виртуальную или физическую Windows-машину и связывать его с сервисом vCenter.
Напомним основные возможности vCenter Multi-Hypervisor Manager для хостов Hyper-V и их виртуальных машин:
Добавление/удаление хостов Hyper-V в окружение vCenter
Информация о конфигурации хостов Hyper-V (processor, memory, network)
Создание/удаление виртуальных машин на Hyper-V
Удаленная консоль как к самим хостам Hyper-V, так и к виртуальным машинам
Простейшие операции по управлению питанием хостов и виртуальных машин (power off, power on, suspend, shut down guest и reset)
Изменение настроек виртуальных машин: память, vCPU, диски, сетевые адаптеры и прочее виртуальное "железо"
Отображение задач для хостов Hyper-V и виртуальных машин на общей панели задач и событий vSphere Client
Интегрированная авторизация с vCenter, а также поддержка механизма пользователей и ролей
Что нового появилось в VMware vCenter Multi-Hypervisor Manager 1.1:
Поддержка окружения Microsoft Hyper-V 3.0 и его виртуальных машин (более ранние версии гипервизора также поддерживаются). Кроме того, поддерживается бесплатная платформа Hyper-V Server 2012.
Возможность миграции ВМ с хостов Hyper-V на платформу ESX или ESXi.
Улучшенная масштабируемость, что выражается в поддержке окружения размером до 50 хостов Hyper-V (ранее было 20).
Возможность предоставления собственных сертификатов для сервера MHM из мастера установки.
Возможность выбрать сразу несколько объектов в интерфейсе, а также другие улучшения юзабилити.
Множественные багофиксы.
Скачать бета-версию VMware vCenter Multi-Hypervisor Manager 1.1 можно по этой ссылке. Руководство пользователя доступно здесь.
Кому-то может пригодиться видео по установке продукта:
Таги: VMware, MHM, Update, vCenter, vSphere, Hyper-V, Windows, Server
Я уже и не помню, писали мы или нет про сайт virtualizationmatrix.com, который представляет собой скрупулезно собранные сравнительные таблицы возможностей популярных платформ виртуализации VMware, Microsoft, Citrix и Red Hat. Ячейки таблиц снабжены детальными пояснениями.
Достоинство этого сайта в том, что он существует уже довольно длительное время, обновляется и до сих пор не загнулся, что очень важно для такого рода ресурсов. Например, недавно вышел VMware Horizon Suite - и он уже есть в таблице:
На сайте все представлено более-менее взвешенно, за исключением того, что в сегменте серверной виртуализации VMware пока, к сожалению, еще не с чем сравнивать.
В матрице доступны следующие категории:
General - функции платформ в общих чертах
Management - управление, бэкапы, обновления и развертывание
VM Mobility and HA - сервисы высокой доступности и мобильности ВМ
Hypervisor - собственно, платформа
Network and Storage - сети и хранилища данных
Cloud (Extensions) - возможности построения облачных инфраструктур (интересно, кстати)
VDI (Extensions) - ПО для построения инфраструктуры виртуальных ПК
Extensions - Other - всякие дополнительные штуки
В общем, приятно, что такие проекты живут и развиваются.
Таги: VMware, Microsoft, Citrix, Red Hat, Сравнение, Enterprise, Comparison, vSphere, XenServer, RHEV, Hyper-V
Представляем вам седьмую статью автора VM Guru Максима Федотенко, посвященную дополнительным режимам работы инфраструктуры виртуальных ПК. В основном все инфраструктуры виртуальных десктопов строятся для использования удаленного режима в качестве основного, поэтому локальный режим следует по умолчанию запретить для всего View Manager... Таги: VMware, VDI, Security, vSphere, Blogs
Мы уже писали о том, что в скором времени увидит свет новая версия ПО для резервного копирования виртуальных машин - Veeam Backup and Replication 7. Сначала было объявлено о поддержке новой версией решения vCloud Director, теперь же компания Veeam показала плагин для тонкого клиента vSphere Web Client.
Те, кто хочет узнать о плагине Veeam для vSphere Web Client, могут зарегистрироваться на вебинар, который пройдет 26 марта.
Не так давно компания VMware выпустила новый документ "VMware
Network
Virtualization Design Guide", который полезно будет почитать менеджерам и сетевым администраторам виртуализованного ЦОД на платформе VMware vSphere.
В документе на довольно концептуальном уровне рассматривается сетевая модель виртуального датацентра (virtual datacenter, VDC) в контексте использования следующих продуктов и технологий VMware:
VMware vSphere Distributed Switch 5.1 (1)
VMware vSphere logical network VXLAN (2)
VMware vCloud Networking and Security Edge 5.1 (3)
VMware vCloud Networking and Security Manager 5.1 (4)
VMware vCloud Director 5.1 (5)
VMware vCenter Server 5.1
Кстати, об организации сетей VXLAN в виртуальной инфраструктуре VMware vSphere и о том, для чего они нужны, мы уже писали вот тут.
В рамках концепции VXLAN рассмотрено прохождение пакетов в рамках одной виртуальной сети VXLAN:
А также прохождение пакетов из одной сети VXLAN в другую:
Интересны также комплексные сценарии, например, по организации доступа к виртуальной машине, работающей в рамках растянутого кластера (Stretched Cluster) и переехавшей из одного датацентра в другой посредством vMotion.
Администраторы VMware vSphere знают, что для виртуальных машин, работающих на серверах VMware ESXi, есть операция Suspend, которая позволяет поставить виртуальную машину "на паузу", что означает сохранение памяти ВМ на диск. Когда машину потребуется "продолжить" (Resume), ее память с диска будет загружена в физическую RAM и она продолжит исполнять инструкции.
В платформе Microsoft Hyper-V есть такая операция Save, которая работает аналогично операции Suspend в ESXi, однако есть и операция Pause, которая работает несколько иначе: виртуальная машина прекращает исполнять инструкции, но память ее продолжает оставаться загруженной в оперативную память сервера. Вследствие этого, такая ВМ может быть быстро продолжена, так как не требуется загружать память с диска.
Есть ли такая операция в VMware vSphere? Как пишет Вильям Лам, оказывается, есть. Для этого можно поступить с VMX-процессом виртуальной машины так же, как и с любым другим процессом в случае его "замораживания" в Unix-системе.
Итак, чтобы поставить ВМ на такую "паузу", идентифицируем ее PID (Process ID). Для этого выполним команду:
# esxcli vm process list
PID виртуальной машины приведен в секции "VMX Cartel ID" результатов вывода команды:
В качестве альтернативы можно использовать также команду ps:
# ps -c | grep -v grep | grep [vmname]
Ну и, собственно, ставим ВМ на паузу:
# kill -STOP [pid]
Чтобы снять машину с паузы, выполняем команду для продолжения VMX-процесса:
# kill -CONT [pid]
Машинка продолжит возвращать пинги:
Надо отметить, что эта штука не работает с виртуальными машинами, для которых включена функция VM monitoring, поскольку этот механизм ничего не знает о такой возможности по приостановке виртуальных машин.
Ну и, само собой, несмотря на то, что эта штука вполне себе работает, она не поддерживается со стороны VMware.
Недавно мы писали про выход новой версии решения для виртуализации настольных ПК VMware Hoizon View 5.2, а также нового пакета продуктов VMware Hoizon View Suite, но на самом деле в марте появилось еще несколько важных изменений в продуктовой линейке компании VMware.
1. Сегодня, 4 марта, начались продажи VMware Hoizon View 5.2.
При этом произошли следующие изменения:
Редакция VMware View Permierпоменяла название на VMware Horizon View, при этом действующие партномера и цены сохранились. Издания VMware View Enterprise больше не будет - оно снимается с продаж с 1 октября 2013 года.
Ввиду предыдущего пункта, для существующих заказчиков View Enterprise изменяется название у VMware View 5 Enterprise Bundle: Starter Kit 10 Packна VMware View 5 Enterprise Bundle: 10 Pack. Партномера и цены остаются прежними.
2. С середины декабря 2013 ПО для виртуализации приложений VMware ThinApp будет недоступно как отдельный продукт.
Но с 4 марта 2013 ThinApp входит в состав решений Horizon Workspace, Horizon Mirage, Horizon View, Horizon Suite.
3. С 14 марта 2013 снимаются с продаж наборы лицензий VMware vSphere Acceleration Kit.
А именно:
vSphere 5 Standard Acceleration Kit for 6 processors
vSphere 5 Enterprise Acceleration Kit for 6 processors
vSphere 5 Enterprise Plus Acceleration Kit for 6 processors
vSphere 5 Standard with Operations Management Acceleration Kit for 6 processors
Вместо них появляются следующие пакеты:
vSphere with Operations Management Standard Acceleration Kit, состоящий из vSphere with Operations Management Standardна 6 процессоров ESXi и 1 лицензии vCenter Server Standard
vSphere with Operations Management Enterprise Acceleration Kit, состоящий из vSphere with Operations Management Enterprise и vSphere Data Protection Advancedна 6 процессоров ESXi, и 1 лицензии vCenter Server Standard
vSphere with Operations Management Enterprise Plus Acceleration Kit, состоящий из vSphere with Operations Management Enterprise Plusи vSphere Data Protection Advancedна 6 процессоров ESXi,и 1 лицензии vCenter Server Standard.
Таким образом, при покупке пакетов Acceleraton Kit компания VMware заставляет пользователей платить за продукт vCenter Operations. Нехорошо.
4. Появляются новые лицензии VMware vSphere с Operations.
Аналогично предыдущему пункту, но уже не в составе пакетов, а при покупке лицензий по процессорам:
vSphere with Operations Management Standard, состоящий из лицензий vSphere Standard и vCenter Operations Management Suite Standard
vSphere with Operations Management Enterprise, состоящий из лицензий vSphere Enterprise и vCenter Operations Management Suite Standard
vSphere with Operations Management Enterprise Plus, состоящий из лицензий vSphere Enterprise Plus и vCenter Operations Management Suite Standard
Обычные лицензии vSphere, к счастью, остаются без изменений. Тут Operations пока насильно не впаривают.
5. С 14 марта доступно приобретение лицензий на продукт VMware vSphere Data Protection издания Advanced.
На днях, на сайте проекта VMware Labs (у нас есть тэг Labs) появилась новая утилита DRMdiagnose, с помощью которой возможно просмотреть информацию о текущем состоянии ресурсов кластера и получить рекомендации по управлению ими.
DRM - это Distributed Resource Manager, основной компонент VMware vSphere, являющийся ядром механизма VMware DRS, который осуществляет балансировку ресурсов в кластере. Основное назначение утилиты DRMdiagnose - это предоставление информации о том, что произойдет с производительностью виртуальных машин и их вычислительными ресурсами, если настройки ресурсов (limit, shares, reservation) будут изменены для какой-то из виртуальных машин. Кроме того, эта утилита выдает рекомендации относительно того, что нужно сделать с ресурсами виртуальных машин по отношению к текущим назначенным ресурсам (уменьшить, увеличить).
Появилась эта утилита по той причине, что пользователи VMware vSphere не знали, что происходит с кластером и его производительностью при регулировании настроек выделения ресурсов для виртуальных машин. Утилита позволяет получить рекомендации относительно того, как можно изменить настройки ресурсов ВМ для достижения оптимальной производительности.
DRMdiagnose позволяет увидеть рекомендации в кластере наподобие таких:
Increase CPU size of VM Webserver by 1
Increase CPU shares of VM Webserver by 4000
Increase memory size of VM Database01 by 800 MB
Increase memory shares of VM Database01 by 2000
Decrease CPU reservation of RP Silver by 340 MHz
Decrease CPU reservation of VM AD01 by 214 MHz
Increase CPU reservation of VM Database01 by 1000 MHz
Для того, чтобы начать пользоваться DRMdiagnose, нужно скопировать в рабочую папку с утилитой снапшот кластера (drmdump), содержащий информацию о виртуальных машинах и их запросы на вычислительные ресурсы. Находится он вот тут:
vCenter server appliance: /var/log/vmware/vpx/drmdump/clusterX/
vCenter server Windows 2003: %ALLUSERSPROFILE%\Application Data\VMware\VMware VirtualCenter\Logs\drmdump\clusterX\
vCenter server Windows 2008: %ALLUSERSPROFILE%\VMware\VMware VirtualCenter\Logs\drmdump\clusterX\
Сама утилитка может работать в трех режимах:
Default - если указан путь к drmdump, то выводятся все ВМ кластера, их назначенные ресурсы, а также запрашиваемые ресурсы.
Guided - если указан путь к drmdump и целевые параметры ресурсов ВМ, то утилита сгенерирует набор рекомендаций для их достижения.
Auto - если указан путь к drmdump, то будут сгенерированы рекомендации для самых несбалансированных ВМ (то есть ВМ, для которых разница между назначенными и запрашиваемыми ресурсами самая большая).
Выглядят снапшоты кластера вот так:
А вот так можно запустить утилиту в дефолтном режиме для вывода информации в файл output.txt:
Формат использования DRMdiagnose:
Работает DRMdiagnose только с VMware vCenter 5.1 и выше, скачать утилиту можно по этой ссылке.
Компания ИТ-ГРАД, ведущий сервис-провайдер по предоставлению IaaS-инфраструктуры VMware в аренду, ввела в эксплуатацию новый облачный центр обработки данных в Санкт-Петербурге.
Существующий дата-центр перестал удовлетворять нашим потребностям по расширению, как в части площадей, так и в части увеличения энергопотребления. Новая инфраструктура облака ИТ-ГРАД более чем в два раза превышает мощности старой площадки.
Мы выбрали самый современный в Петербурге ЦОД на ул. Репищева, построенный в соответствии со спецификациями стандарта TIA-942 Tier 3. Дата-центр является крупнейшим по площади и мощности в Санкт-Петербурге, что соответствует нашим планам по динамике дальнейшего роста. Данный дата-центр запущен в 2011 году и уже имеет достаточный опыт бесперебойной эксплуатации.
Ядро новой инфраструктуры реализовано с полной заменой старого оборудования на самые современные и надежные High End решения производства NetApp, Dell, HP, Cisco и Juniper, что обеспечивает многократный запас ресурсов, мощности и производительности по сравнению со старой площадкой. При проектировании архитектуры нового облака был использован весь многолетний опыт компании, по построению и эксплуатации частных и публичных облаков.
В частности внедрена новая система хранения данных NetApp V6240 с использованием flash-кэширования и SSD дисков. Новая СХД позволяет решать абсолютно любые задачи наших клиентов, связанные с высокой нагрузкой на дисковую подсистему.
Новый центр обработки данных позволяет предлагать клиентам новое поколение облачных вычислений – IT-GRAD Cloud 2.0. Наши клиенты могут оперировать не только объёмом дискового пространства, но и характеристиками производительности СХД по требуемому количеству IOPS, мощности новой СХД позволяют предоставлять отдельным клиентам десятки тысяч операций ввода-вывода в секунду.
Миграция клиентских виртуальных машин в новый центр обработки данных для подавляющего большинства клиентов производится прозрачно, в режиме реального времени и без простоя услуги. Это достигается применением технологий виртуализации VMware, на базе которой реализована наша виртуальная инфраструктура.
Иногда бывает так, что VMware ESXi может начать вести себя странно, но симптомы могут быть совершенно разными, например:
Не работает vMotion - отваливается на 13% с ошибкой "A general system error occurred: Timed out waiting for vpxa to start" или зависает вовсе
Не работает консоль виртуальной машины (Unable to contact the MKS)
Не зайти на хост VMware ESXi по SSH
Хост ругается на отсутствие свободного места, хотя оно есть на разделах ESXi (No free space left on device)
и прочие неприятности
При этом иногда сходу и не скажешь, что произошло. А проблема вот в чем: у файловых систем ОС Unix есть объекты inode - структуры данных, где хранится метаинформация о стандартных файлах, каталогах или других объектах файловой системы, кроме непосредственно данных и имени. Так вот, этих inode - ограниченное количество, и при большом количестве файлов они могут просто закончиться.
Чтобы проверить количество доступных inodes надо выполнить следующую команду на VMware ESXi (подробнее в KB 1007638):
Вот тут мы видим, что из 640 тысяч айнодов свободно 580 тысяч, то есть все в порядке.
Откуда может взяться так много файлов? Оказывается это случается, когда включен демон SNMPD на VMware ESXi 5.1. Каталог /var/spool/snmp начинает быстро засираться файлами SNMP-трапов. Если у вас включен SNMP и в этом каталоге более 2000 файлов - вероятность возникновения описанного выше поведения высока.
Выход - почистить папку и сделать так, как написано в статье KB 2040707.